Световни новини без цензура!
Китай използва цензури, за да създаде социалистически AI
Снимка: ft.com
Financial Times | 2024-09-09 | 05:18:21

Китай използва цензури, за да създаде социалистически AI

Китайските държавни чиновници тестват огромните езикови модели на фирмите за изкуствен интелект, с цел да подсигуряват, че техните системи „ въплъщават главните социалистически полезности “ в последното разширение на режима на цензура в страната.

Администрацията за киберпространство на Китай (CAC), мощен интернет надзирател, принуди огромни софтуерни компании и започващи AI компании, в това число ByteDance, Alibaba, Moonshot и 01.AI, да вземат участие в наложителен държавен обзор на техните AI модели, съгласно голям брой хора, участващи в процеса.

Усилията включват групово тестване на отговорите на магистърска степен по право на литания от въпроси, съгласно тези, които познават процеса, като доста от тях са свързани с политическата сензитивност на Китай и неговият президент Си Дзинпин. 

Работата се прави от длъжностни лица в локалните поделения на CAC в цялата страна и включва обзор на данните за образование на модела и други процеси за сигурност.

Две десетилетия след въвеждането на „ огромна защитна стена “, с цел да блокира задгранични уеб страници и друга информация, считана за нездравословна от ръководещата комунистическа партия, Китай вкарва най-строгия регулаторен режим в света за ръководство на ИИ и наличието, което генерира.

CAC има „ специфичен екип, който правеше това, те пристигнаха в нашия офис и седнаха в конферентната ни зала, с цел да създадат одита “, сподели чиновник в основана в Ханджоу компания за изкуствен интелект, който пожела да остане неизвестен. 

„ Не минахме първия път; повода не беше доста ясна, тъй че трябваше да отидем и да приказваме с нашите връстници “, сподели индивидът. „ Трябва малко отгатване и поправяне. Минахме втория път, само че целият развой лиши месеци. “

Взискателният развой на утвърждение в Китай принуди групите с ИИ в страната бързо да научат по какъв начин най-добре да цензурират огромните езикови модели, които построяват, задача, която неведнъж инженери и хора от промишлеността споделиха, че е мъчно и комплицирано от нуждата да се образоват магистри по образование на огромно количество наличие на британски език. 

„ Нашият основополагащ модел е доста, доста свободен [в своите отговори], тъй че филтрирането на сигурността е извънредно значимо “, сподели чиновник във водеща започваща AI компания в Пекин.

Филтрирането стартира с премахване на проблематична информация от данните за образование и създаване на база данни от чувствителни основни думи. Оперативните насоки на Китай за AI компании, оповестени през февруари, споделят, че AI групите би трябвало да съберат хиляди чувствителни основни думи и въпроси, които нарушават „ главните социалистически полезности “, като „ подбудителство към подривна активност на държавната власт “ или „ подкопаване на националното единение “. Предполага се, че сензитивните основни думи се актуализират всяка седмица.

Резултатът е забележим за потребителите на китайските AI чатботове. Запитвания по чувствителни тематики като какво се е случило на 4 юни 1989 година – датата на клането на площад Тянанмън – или дали Си наподобява на Мечо Пух, интернет мем, се отхвърлят от множеството китайски чатботове. Чатботът Ernie на Baidu споделя на потребителите „ да опитат с друг въпрос “, до момента в който Tongyi Qianwen на Alibaba дава отговор: „ Все още не съм се научил по какъв начин да отговоря на този въпрос. Ще продължа да изучавам, с цел да ви послужвам по-добре. “

За разлика от тях, Пекин пусна AI чатбот, основан на нов модел на политическата философия на китайския президент, прочут като „ Мисъл на Си Дзинпин за социализма с китайски характерности за нова епоха ”, както и друга публична литература, предоставена от Администрацията на киберпространството на Китай.

Покажи информация за видеоклипаПокажи описанието на видеоклипа

Описание на видеоклипа

Пекин организира проби за сигурност, с цел да подсигурява, че китайските LLM вярно цензурират продукцията си

Големите езикови модели дават отговор на въпроси, сложени от FT - видео © FT

Но китайските чиновници също се стремят да избегнат основаването на AI, който заобикаля всевъзможни политически тематики. CAC вкара ограничавания за броя на въпросите, които LLM могат да отхвърлят по време на тестванията за сигурност, съгласно личния състав на групи, които оказват помощ на софтуерните компании да се ориентират в процеса. Квазинационалните стандарти, разкрити през февруари, споделят, че LLM не би трябвало да отхвърлят повече от 5 % от заложените им въпроси.  

„ По време на [CAC] тестването [моделите] би трябвало да отговорят, само че откакто пуснат онлайн, никой не ги гледа “, сподели разработчик в основана в Шанхай интернет компания. „ За да избегнат евентуални проблеми, някои огромни модели вкараха цялостна възбрана за тематики, свързани с президента Си. “

Като образец за процеса на цензура на основните думи, вътрешни лица от промишлеността показаха Kimi, чатбот, пуснат от Beijing start -up Moonshot, който отхвърля множеството въпроси, свързани със Xi. 

Но нуждата да се дава отговор на по-малко намерено чувствителни въпроси значи, че китайските инженери трябваше да схванат по какъв начин да подсигуряват, че LLM генерират политически правилни отговори на въпроси като „ има ли Китай човешки права? “ или „ популярен водач ли е президентът Си Дзинпин? “.  

Когато Financial Times зададе тези въпроси на чатбот, основан от започващата компания 01.AI, неговият Yi-large модел даде нюансиран отговор, акцентирайки, че критиците споделят, че „ политиките на Xi в допълнение ограничиха свободата на речта и правата на индивида и потисканото гражданско общество. “ 

Скоро по-късно отговорът на Yi изчезна и беше сменен от: „ Много скърбя, не мога да ви дава информацията, която желаете. “ 

Хуан Ли, специалист по изкуствен интелект, изграждащ чатбота Chatie.IO, сподели: „ Много е мъчно за разработчиците да управляват текста, генериран от LLM, тъй че да изградят различен пласт, който да размени отговорите в действително време. “

Li сподели, че групите нормално употребяват модели на класификатори, сходни на тези, открити във филтрите за нежелана поща, с цел да сортират изхода на LLM в авансово дефинирани групи. „ Когато изходът попадне в сензитивна категория, системата ще задейства замяна “, сподели той.

Китайски специалисти споделят, че притежателят на TikTok ByteDance е напреднал най-далеч в основаването на LLM, който ловко повтаря тезите на Пекин. Изследователска лаборатория в университета Фудан, която зададе на чатбота сложни въпроси по отношение на главните социалистически полезности, му даде най-високо класиране измежду LLM с 66,4 % „ % на сходство с условията за сигурност “, много пред резултат от 7,1 % за GPT-4o на OpenAI на същия тест.

Когато го попитаха за водачеството на Си, Дубао даде на FT дълъг лист с достиженията на Си, добавяйки, че той е „ безспорно популярен водач “. 

На скорошна техническа конференция в Пекин, Фанг Бинсин, прочут като бащата на великата китайска защитна стена, сподели, че създава система от протоколи за сигурност за LLM, които се надява да бъдат универсално признати от групите за ИИ в страната. 

„ Публичните огромни планирани модели се нуждаят от повече от просто файлове за безопасност; те се нуждаят от мониторинг на онлайн сигурността в действително време “, сподели Фанг. „ Китай се нуждае от личен софтуерен път. “ 

CAC, ByteDance, Alibaba, Moonshot, Baidu и 01.AI не дадоха отговор незабавно на настояванията за коментар.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!